Вероятностей теория - определение. Что такое Вероятностей теория
Diclib.com
Словарь ChatGPT
Введите слово или словосочетание на любом языке 👆
Язык:

Перевод и анализ слов искусственным интеллектом ChatGPT

На этой странице Вы можете получить подробный анализ слова или словосочетания, произведенный с помощью лучшей на сегодняшний день технологии искусственного интеллекта:

  • как употребляется слово
  • частота употребления
  • используется оно чаще в устной или письменной речи
  • варианты перевода слова
  • примеры употребления (несколько фраз с переводом)
  • этимология

Что (кто) такое Вероятностей теория - определение

РАЗДЕЛ МАТЕМАТИКИ, ИЗУЧАЮЩИЙ ЗАКОНОМЕРНОСТИ СЛУЧАЙНЫХ ЯВЛЕНИЙ
Теория вероятности; Теория Вероятностей; Теорвер; Вероятностей теория; Тервер
  • Андрей Николаевич Колмогоров
  • Христиан Гюйгенс
Найдено результатов: 1038
ВЕРОЯТНОСТЕЙ ТЕОРИЯ         
раздел математики, в котором по данным вероятностям одних случайных событий находят вероятности других событий, связанных каким-либо образом с первыми. Теория вероятностей изучает также случайные величины и случайные процессы. Одна из основных задач теории вероятностей состоит в выяснении закономерностей, возникающих при взаимодействии большого числа случайных факторов (см. Больших чисел закон). Математический аппарат теории вероятностей используется при изучении массовых явлений в науке и технике. Методы теории вероятностей играют важную роль при обработке статистических данных. См. также Математическая статистика.
Вероятностей теория         

математическая наука, позволяющая по вероятностям одних случайных событий находить вероятности других случайных событий, связанных каким-либо образом с первыми.

Утверждение о том, что какое-либо событие наступает с Вероятностью, равной, например, , ещё не представляет само по себе окончательной ценности, так как мы стремимся к достоверному знанию. Окончательную познавательную ценность имеют те результаты В. т., которые позволяют утверждать, что вероятность наступления какого-либо события А весьма близка к единице или (что то же самое) вероятность не наступления события А весьма мала. В соответствии с принципом "пренебрежения достаточно малыми вероятностями" такое событие справедливо считают практически достоверным. Ниже (в разделе Предельные теоремы) показано, что имеющие научный и практический интерес выводы такого рода обычно основаны на допущении, что наступление или не наступление события А зависит от большого числа случайных, мало связанных друг с другом факторов (см. по этому поводу Больших чисел закон). Поэтому можно также сказать, что В. т. есть математическая наука, выясняющая закономерности, которые возникают при взаимодействии большого числа случайных факторов.

Предмет теории вероятностей. Для описания закономерной связи между некоторыми условиями S и событием А, наступление или не наступление которого при данных условиях может быть точно установлено, естествознание использует обычно одну из следующих двух схем:

а) при каждом осуществлении условий S наступает событие А. Такой вид, например, имеют все законы классической механики, которые утверждают, что при заданных начальных условиях и силах, действующих на тело или систему тел, движение будет происходить однозначно определённым образом.

б) При условиях S событие А имеет определённую вероятность P (A / S), равную р. Так, например, законы радиоактивного излучения утверждают, что для каждого радиоактивного вещества существует определённая вероятность того, что из данного количества вещества за данный промежуток времени распадётся какое-либо число N атомов.

Назовем частотой события А в данной серии из n испытаний (то есть из n повторных осуществлений условий S) отношение h = m/n числа m тех испытаний, в которых А наступило, к общему их числу n. Наличие у события А при условиях S определённой вероятности, равной р, проявляется в том, что почти в каждой достаточно длинной серии испытаний частота события А приблизительно равна р.

Статистические закономерности, то есть закономерности, описываемые схемой типа (б), были впервые обнаружены на примере азартных игр, подобных игре в кости. Очень давно известны также статистические закономерности рождения, смерти (например, вероятность новорождённому быть мальчиком равна 0,515). Конец 19 в. и 1-я половина 20 в. отмечены открытием большого числа статистических закономерностей в физике, химии, биологии и т.п.

Возможность применения методов В. т. к изучению статистических закономерностей, относящихся к весьма далёким друг от друга областям науки, основана на том, что вероятности событий всегда удовлетворяют некоторым простым соотношениям, о которых будет сказано ниже (см. раздел Основные понятия теории вероятностей). Изучение свойств вероятностей событий на основе этих простых соотношений и составляет предмет В. т.

Основные понятия теории вероятностей. Наиболее просто определяются основные понятия В. т. как математической дисциплины в рамках так называемой элементарной В. т. Каждое испытание Т, рассматриваемое в элементарной В. т., таково, что оно заканчивается одним и только одним из событий E1, E2,..., ES (тем или иным, в зависимости от случая). Эти события называются исходами испытания. С каждым исходом Ek связывается положительное число рк - вероятность этого исхода. Числа pk должны при этом в сумме давать единицу. Рассматриваются затем события А, заключающиеся в том, что "наступает или Ei, или Ej,..., или Ek". Исходы Ei, Ej,..., Ek называются благоприятствующими А, и по определению полагают вероятность Р (А) события А, равной сумме вероятностей благоприятствующих ему исходов:

P (A) = pi + ps + ... + pk. (1)

Частный случай p1 = p2 =... ps = 1/S приводит к формуле

Р (А) = r/s. (2)

Формула (2) выражает так называемое классическое определение вероятности, в соответствии с которым вероятность какого-либо события А равна отношению числа r исходов, благоприятствующих А, к числу s всех "равновозможных" исходов. Классическое определение вероятности лишь сводит понятие "вероятности" к понятию "равновозможности", которое остаётся без ясного определения.

Пример. При бросании двух игральных костей каждый из 36 возможных исходов может быть обозначен (i, j), где i - число очков, выпадающее на первой кости, j - на второй. Исходы предполагаются равновероятными. Событию А - "сумма очков равна 4", благоприятствуют три исхода (1; 3), (2; 2), (3; 1). Следовательно, Р (A) = 3/36 = 1/12.

Исходя из каких-либо данных событий, можно определить два новых события: их объединение (сумму) и совмещение (произведение). Событие В называется объединением событий A 1, A 2,..., Ar,-, если оно имеет вид: "наступает или A1, или А2,..., или Ar".

Событие С называется совмещением событий A1, А.2,..., Ar, если оно имеет вид: "наступает и A1, и A2,..., и Ar". Объединение событий обозначают знаком ∪, а совмещение - знаком ∩. Таким образом, пишут:

B = A1 . A2 . ... ∪ Ar, C = A1A2 . ... ∩ Ar.

События А и В называют несовместными, если их одновременное осуществление невозможно, то есть если не существует среди исходов испытания ни одного благоприятствующего и А, и В.

С введёнными операциями объединения и совмещения событий связаны две основные теоремы В. т. - теоремы сложения и умножения вероятностей.

Теорема сложения вероятностей. Если события A1, A2,..., Ar таковы, что каждые два из них несовместны, то вероятность их объединения равна сумме их вероятностей.

Так, в приведённом выше примере с бросанием двух костей событие В - "сумма очков не превосходит 4", есть объединение трёх несовместных событий A2, A3, A4, заключающихся в том, что сумма очков равна соответственно 2, 3, 4. Вероятности этих событий 1/36; 2/36; 3/36. По теореме сложения вероятность Р (В) равна

1/36 + 2/36 + 3/36 = 6/36 = 1/6.

Условную вероятность события В при условии А определяют формулой

что, как можно показать, находится в полном соответствии со свойствами частот. События A1, A2,..., Ar называются независимыми, если условная вероятность каждого из них при условии, что какие-либо из остальных наступили, равна его "безусловной" вероятности (см. также Независимость в теории вероятностей).

Теорема умножения вероятностей. Вероятность совмещения событий A1, A2,..., Ar равна вероятности события A1, умноженной на вероятность события A2, взятую при условии, что А1 наступило,..., умноженной на вероятность события Ar при условии, что A1, A2,..., Ar-1 наступили. Для независимых событий теорема умножения приводит к формуле:

P (A1 . A2 . ... ∩ Ar) = P (A1) * P (A2) * ... · P (Ar), (3)

то есть вероятность совмещения независимых событий равна произведению вероятностей этих событий. Формула (3) остаётся справедливой, если в обеих её частях некоторые из событий заменить на противоположные им.

Пример. Производится 4 выстрела по цели с вероятностью попадания 0,2 при отдельном выстреле. Попадания в цель при различных выстрелах предполагаются независимыми событиями. Какова вероятность попадания в цель ровно три раза?

Каждый исход испытания может быть обозначен последовательностью из четырёх букв [напр., (у, н, н, у) означает, что при первом и четвёртом выстрелах были попадания (успех), а при втором и третьем попаданий не было (неудача)]. Всего будет 2·2·2·2 = 16 исходов. В соответствии с предположением о независимости результатов отдельных выстрелов следует для определения вероятностей этих исходов использовать формулу (3) и примечание к ней. Так, вероятность исхода (у, н. н, н) следует положить равной 0,2·0,8·0,8·0,8 = 0,1024; здесь 0,8 = 1-0,2 - вероятность промаха при отдельном выстреле. Событию "в цель попадают три раза" благоприятствуют исходы (у, у, у, н), (у, у, н, у), (у, н, у, у). (н, у, у, у), вероятность каждого одна и та же:

0,2·0,2·0,2·0,8 =...... =0,8·0,2·0,2·0,2 = 0,0064;

следовательно, искомая вероятность равна

4·0,0064 = 0,0256.

Обобщая рассуждения разобранного примера, можно вывести одну из основных формул В. т.: если события A1, A2,..., An независимы и имеют каждое вероятность р, то вероятность наступления ровно m из них равна

Pn (m) = Cnmpm (1 - p) n-m; (4)

здесь Cnm обозначает число сочетаний из n элементов по m (см. Биномиальное распределение). При больших n вычисления по формуле (4) становятся затруднительными. Пусть в предыдущем примере число выстрелов равно 100, и ставится вопрос об отыскании вероятности х того, что число попаданий лежит в пределах от 8 до 32. Применение формулы (4) и теоремы сложения даёт точное, но практически мало пригодное выражение искомой вероятности

Приближённое значение вероятности х можно найти по теореме Лапласа (см. Лапласа теорема)

причём ошибка не превосходит 0,0009. Найденный результат показывает, что событие 8 ≤ m ≤ 32 практически достоверно. Это самый простой, но типичный пример использования предельных теорем (См. Предельные теоремы) В. т.

К числу основных формул элементарной В. т. относится также так называемая формула полной вероятности: если события A1, A2,..., Ar попарно несовместны и их объединение есть достоверное событие, то для любого события В его вероятность равна сумме

Теорема умножения вероятностей оказывается особенно полезной при рассмотрении составных испытаний. Говорят, что испытание Т составлено из испытаний T1, T2,..., Tn-1, Tn, если каждый исход испытания Т есть совмещение некоторых исходов Ai, Bj,..., Xk, Yl соответствующих испытаний T1, T2,..., Tn-1, Tn. Из тех или иных соображений часто бывают известны вероятности

P (Ai), P (Bj/Ai), ..., P (Yl/Ai . Bj . ... ∩ Xk). (5)

По вероятностям (5) с помощью теоремы умножения могут быть определены вероятности Р (Е) для всех исходов Е составного испытания, а вместе с тем и вероятности всех событий, связанных с этим испытанием (подобно тому, как это было сделано в разобранном выше примере). Наиболее значительными с практической точки зрения представляются два типа составных испытаний: а) составляющие испытания не зависимы, то есть вероятности (5) равны безусловным вероятностям P (Ai), P (Bj),..., P (Yl); б) на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, то есть вероятности (5) равны соответственно: P (Ai), P (Bj /Ai),..., P (Yi / Xk). В этом случае говорят об испытаниях, связанных в цепь Маркова. Вероятности всех событий, связанных с составным испытанием, вполне определяются здесь начальными вероятностями Р (Аi) и переходными вероятностями P (Bj / Ai),..., P (Yl / Xk) (см. также Марковский процесс).

Случайные величины. Если каждому исходу Er испытания Т поставлено в соответствие число х,, то говорят, что задана случайная величина X. Среди чисел x1, х2,......, xs могут быть и равные; совокупность различных значений хг при r = 1, 2,..., s называют совокупностью возможных значений случайной величины. Набор возможных значений случайной величины и соответствующих им вероятностей называется распределением вероятностей случайной величины (см. Распределения). Так, в примере с бросанием двух костей с каждым исходом испытания (i, j) связывается случайная величина Х = i + j - сумма очков на обеих костях. Возможные значения суть 2, 3, 4,..., 11, 12; соответствующие вероятности равны 1/36, 2/36, 3/36,..., 2/36, 1/36.

При одновременном изучении нескольких случайных величин вводится понятие их совместного распределения, которое задаётся указанием возможных значений каждой из них и вероятностей совмещения событий

{X1 = x1}, {X2 = x2}, ..., {Xn = xn}, (6)

где xk - какое-либо из возможных значений величины Xk. Случайные величины называются независимыми, если при любом выборе xk события (6) независимы. С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, например события a < X1 + Х2 +... + Xn < b и т.п.

Часто вместо полного задания распределения вероятностей случайной величины предпочитают пользоваться небольшим количеством числовых характеристик. Из них наиболее употребительны Математическое ожидание и Дисперсия.

В число основных характеристик совместного распределения нескольких случайных величин, наряду с математическими ожиданиями и дисперсиями этих величин, включаются коэффициенты корреляции (См. Корреляция) и т.п. Смысл перечисленных характеристик в значительной степени разъясняется предельными теоремами (см. раздел Предельные теоремы).

Схема испытаний с конечным числом исходов недостаточна уже для самых простых применений В. т. Так, при изучении случайного разброса точек попаданий снарядов вокруг центра цели, при изучении случайных ошибок, возникающих при измерении какой-либо величины, и т.д. уже невозможно ограничиться испытаниями с конечным числом исходов. При этом в одних случаях результат испытания может быть выражен числом или системой чисел, в других - результатом испытания может быть функция (например, запись изменения давления в данной точке атмосферы за данный промежуток времени), системы функций и т.п. Следует отметить, что многие данные выше определения и теоремы с незначительными по существу изменениями приложимы и в этих более общих обстоятельствах, хотя способы задания распределений вероятностей изменяются (см. Распределения, Плотность вероятности).

Наиболее серьёзное изменение претерпевает определение вероятности, которое в элементарном случае давалось формулой (2). В более общих схемах, о которых идёт речь, события являются объединениями бесконечного числа исходов (или, как говорят, элементарных событий), вероятность каждого из которых может быть равна нулю. В соответствии с этим свойство, выраженное теоремой сложения, не выводится из определения вероятности, а включается в него.

Наиболее распространённая в настоящее время логическая схема построения основ В. т. разработана в 1933 советским математиком А. Н. Колмогоровым. Основные черты этой схемы следующие. При изучении какой-либо реальной задачи - методами В. т. прежде всего выделяется множество U элементов u, называемых элементарными событиями. Всякое событие вполне описывается множеством благоприятствующих ему элементарных событий и потому рассматривается как некое множество элементарных событий. С некоторыми из событий А связываются определённые числа Р (A), называемые их вероятностями и удовлетворяющие условиям

1. 0 ≤ Р (А) ≤ 1,

2. P (U) = 1,

3. Если события A1,..., An попарно несовместны и А - их сумма, то

Ð (À) = Ð (A1) + P (A2) + ... + Р (An).

Для создания полноценной математической теории требуют, чтобы условие 3 выполнялось и для бесконечных последовательностей попарно несовместных событий. Свойства неотрицательности и аддитивности есть основные свойства меры множества. В. т. может, таким образом, с формальной точки зрения рассматриваться как часть меры теории (См. Меры теория). Основные понятия В. т. получают при таком подходе новое освещение. Случайные величины превращаются в измеримые функции, их математические ожидания - в абстрактные интегралы Лебега и т.п. Однако основные проблемы В. т. и теории меры различны. Основным, специфическим для В. т. является понятие независимости событий, испытаний, случайных величин. Наряду с этим В. т. тщательно изучает и такие объекты, как условные распределения, условные математические ожидания и т.п.

Предельные теоремы. При формальном изложении В. т. предельные теоремы появляются в виде своего рода надстройки над ее элементарными разделами, в которых все задачи имеют конечный, чисто арифметический характер. Однако познавательная ценность В. т. раскрывается только предельными теоремами. Так, Бернулли теорема показывает, что при независимых испытаниях частота появления какого-либо события, как правило, мало отклоняется от его вероятности, а Лапласа теорема указывает вероятности тех или иных отклонений. Аналогично смысл таких характеристик случайной величины, как её математическое ожидание и дисперсия, разъясняется законом больших чисел и центральной предельной теоремой (см. Больших чисел закон. Предельные теоремы теории вероятностей).

Пусть X1, Х2,..., Xn,... (7)

- независимые случайные величины, имеющие одно и то же распределение вероятностей с EXk = а, DXk = σ2 и Yn - среднее арифметическое первых n величин из последовательности (7):

Yn = (X1 + X2 + ... +Xn)/n.

В соответствии с законом больших чисел, каково бы ни было ε > 0, вероятность неравенства |Yn - a| ≤ ε имеет при n →∞ пределом 1, и, таким образом, Yn как правило, мало отличается от а. Центральная предельная теорема уточняет этот результат, показывая, что отклонения Yn от а приближённо подчинены нормальному распределению (См. Нормальное распределение) со средним 0 и дисперсией σ2 / n. Таким образом, для определения вероятностей тех или иных отклонений Yn от а при больших n нет надобности знать во всех деталях распределение величин Xn, достаточно знать лишь их дисперсию.

В 20-х гг. 20 в. было обнаружено, что даже в схеме последовательности одинаково распределённых и независимых случайных величин могут вполне естественным образом возникать предельные распределения, отличные от нормального. Так, например, если X1 время до первого возвращения некоторой случайно меняющейся системы в исходное положение, Х2 - время между первым и вторым возвращениями и т.д., то при очень общих условиях распределение суммы X1 +... + Xn (то есть времени до n-го возвращения) после умножения на n 1/α (а - постоянная, меньшая 1) сходится к некоторому предельному распределению. Таким образом, время до n-го возвращения растет, грубо говоря, как n 1/α, то есть быстрее n (в случае приложимости закона больших чисел оно было бы порядка n).

Механизм возникновения большинства предельных закономерностей может быть до конца понят лишь в связи с теорией случайных процессов.

Случайные процессы. В ряде физических и химических исследований последних десятилетий возникла потребность, наряду с одномерными и многомерными случайными величинами, рассматривать случайные процессы (См. Случайный процесс), то есть процессы, для которых определена вероятность того или иного их течения. Примером случайного процесса может служить координата частицы, совершающей броуновское движение. В В. т. случайный процесс рассматривают обычно как однопараметрическое семейство случайных величин Х (t). В подавляющем числе приложений параметр t является временем, но этим параметром может быть, например, точка пространства, и тогда обычно говорят о случайной функции. В том случае, когда параметр t пробегает целочисленные значения, случайная функция называется случайной последовательностью. Подобно тому, как случайная величина характеризуется законом распределения, случайный процесс может быть охарактеризован совокупностью совместных законов распределения для X (t1), X (t2),..., X (tn) для всевозможных моментов времени t1, t2,..., tn при любом n > 0. В настоящее время наиболее интересные конкретные результаты теории случайных процессов получены в двух специальных направлениях.

Исторически первыми изучались марковские процессы (См. Марковский процесс). Случайный процесс Х (t) называется марковским, если для любых двух моментов времени t0 и t1 (t0 < t1) условное распределение вероятностей X (t1) при условии, что заданы все значения Х (t) при t ≤ t0, зависит только от X (t0) (в силу этого марковские случайные процессы иногда называют процессами без последействия). Марковские процессы являются естественным обобщением детерминированных процессов, рассматриваемых в классической физике. В детерминированных процессах состояние системы в момент времени t0 однозначно определяет ход процесса в будущем; в марковских процессах состояние системы в момент времени t0 однозначно определяет распределение вероятностей хода процесса при t > t0, причём никакие сведения о ходе процесса до момента времени t0 не изменяют это распределение.

Вторым крупным направлением теории случайных процессов является теория стационарных случайных процессов (См. Стационарный случайный процесс). Стационарность процесса, то есть неизменность во времени его вероятностных закономерностей, налагает сильное ограничение на процесс и позволяет из одного этого допущения извлечь ряд важных следствий (например, возможность так называемого спектрального разложения

где z (λ) случайная функция с независимыми приращениями). В то же время схема стационарных процессов с хорошим приближением описывает многие физические явления.

Теория случайных процессов тесно связана с классической проблематикой предельных теорем для сумм случайных величин. Те законы распределения, которые выступают при изучении сумм случайных величин как предельные, в теории случайных процессов являются точными законами распределения соответствующих характеристик. Этот факт позволяет доказывать многие предельные теоремы с помощью соответствующих случайных процессов.

Историческая справка. В. т. возникла в середине 17 в. Первые работы по В. т., принадлежащие французским учёным Б. Паскалю и П. Ферма и голландскому учёному X. Гюйгенсу, появились в связи с подсчётом различных вероятностей в азартных играх. Крупный успех В. т. связан с именем швейцарского математика Я. Бернулли, установившего закон больших чисел для схемы независимых испытаний с двумя исходами (опубликовано в 1713).

Следующий (второй) период истории В. т. (18 в. и начало 19 в.) связан с именами А. Муавра (Англия), П. Лапласа (Франция), К. Гаусса (Германия) и С. Пуассона (Франция). Это - период, когда В. т. уже находит ряд весьма актуальных применений в естествознании и технике (главным образом в теории ошибок наблюдений, развившейся в связи с потребностями геодезии и астрономии, и в теории стрельбы). К этому периоду относится доказательство первых предельных теорем, носящих теперь названия теорем Лапласа (1812) и Пуассона (1837); А. Лежандром (Франция, 1806) и Гауссом (1808) в это же время был разработан способ наименьших квадратов.

Третий период истории В. т. (2-я половина 19 в.) связан в основном с именами русских математиков П. Л. Чебышева, А. М. Ляпунова и А. А. Маркова (старшего). В. т. развивалась в России и раньше (в 18 в. ряд трудов по В. т. был написан работавшими в России Л. Эйлером, Н. Бернулли и Д. Бернулли; во второй период развития В. т. следует отметить работы М. В. Остроградского по вопросам В. т., связанным с математической статистикой, и В. Я. Буняковского по применениям В. т. к страховому делу, статистике и демографии). Со 2-й половины 19 в. исследования по В. т. в России занимают ведущее место в мире. Чебышев и его ученики Ляпунов н Марков поставили и решили ряд общих задач в В. т., обобщающих теоремы Бернулли и Лапласа. Чебышев чрезвычайно просто доказал (1867) закон больших чисел при весьма общих предположениях. Он же впервые сформулировал (1887) центральную предельную теорему для сумм независимых случайных величин и указал один из методов её доказательства. Другим методом Ляпунов получил (1901) близкое к окончательному решение этого вопроса. Марков впервые рассмотрел (1907) один случай зависимых испытаний, который впоследствии получил название цепей Маркова.

В Западной Европе во 2-й половине 19 в. получили большое развитие работы по математической статистике (в Бельгии - А. Кетле, в Англии - Ф. Гальтон) и статистической физике (в Австрии - Л. Больцман), которые наряду с основными теоретическими работами Чебышева, Ляпунова и Маркова создали основу для существенного расширения проблематики В. т. в четвёртом (современном) периоде её развития. Этот период истории В. т. характеризуется чрезвычайным расширением круга её применений, созданием нескольких систем безукоризненно строгого математического обоснования В. т., новых мощных методов, требующих иногда применения (помимо классического анализа) средств теории множеств, теории функций действительного переменного и функционального анализа. В этот период при очень большом усилении работы по В. т. за рубежом (во Франции - Э. Борель, П. Леви, М. Фреше, в Германии - Р. Мизес, в США - Н. Винер, В. Феллер, Дж. Дуб, в Швеции - Г. Крамер) советская наука продолжает занимать значительное, а в ряде направлений и ведущее положение. В нашей стране новый период развития В. т. открывается деятельностью С. Н. Бернштейна, значительно обобщившего классические предельные теоремы Чебышева, Ляпунова и Маркова и впервые в России широко поставившего работу по применениям В. т. к естествознанию. В Москве А. Я. Хинчин и А. Н. Колмогоров начали с применения к вопросам В. т. методов теории функций действительного переменного. Позднее (в 30-х гг.) они (и Е. Е. Слуцкий) заложили основы теории случайных процессов. В. И. Романовский (Ташкент) и Н. В. Смирнов (Москва) поставили на большую высоту работу по применениям В. т. к математической статистике. Кроме обширной московской группы специалистов по В. т., в настоящее время в СССР разработкой проблем В. т. занимаются в Ленинграде (во главе с Ю. В. Линником) и в Киеве.

Лит.: Основоположники и классики теории вероятностей. Bernoulli J., Ars conjectandi, opus posthumum, Basileae, 1713 (рус. пер., СПБ. 1913); Laplace [P. S.], Théorie analytique des probabilités, 3 éd.. P., 1886 (CEuvres complétes de Laplase, t. 7, livre 1-2); Чебышев П. Л., Поли. собр. соч., т. 2-3, М. - Л., 1947-48; Liapounoff A., Nouvelle forme du théoréme sur la limite de probabilité, СПБ, 1901 ("Зап. АН по физико-математическому отделению, 8 серия", т. 12, №5); Марков А. А., Исследование замечательного случая зависимых испытаний, "Изв. АН, 6 серия", 1907, т 1 М 3.

Популярная и учебная литература. Гнеденко Б. В. и Хинчин А. Я., Элементарное введение в теорию вероятностей, 3 изд., М. - Л., 1952; Гнеденко Б. В., Курс теории вероятностей, 4 изд., М., 1965; Марков А. А., Исчисление вероятностей, 4 изд., М., 1924; Бернштейн С. Н., Теория вероятностей, 4 изд., М. - Л., 1946; Феллер В., Введение в теорию вероятностей и её приложение (Дискретные распределения), пер. с англ., 2 изд., т. 1-2, М., 1967.

Обзоры и монографии. Гнеденко Б. В. и Колмогоров А. Н., Теория вероятностей, в кн.: Математика в СССР за тридцать лет. 1917-1947. Сб. ст., М. - Л., 1948; Колмогоров А. Н., Теория вероятностей, в кн.: Математика в СССР за сорок лет. 1917-57. Сб. ст., т. 1, М., 1959; Колмогоров А. Н., Основные понятия теории вероятностей, пер. с нем., М.-Л., 1936; его же, Об аналитических методах в теории вероятностей, "Успехи математических наук", 1938, в. 5, с. 5-41; Хинчин А. Я., Асимптотические законы теории вероятностей, пер. с нем., М.-Л., 1936; Гнеденко Б. В. и Колмогоров А. Н., Предельные распределения для сумм независимых случайных величин, М.-Л., 1949; Дуб Дж. Л., Вероятностные процессы, пер. с англ., М., 1956: Чандрасекар С., Стохастические проблемы в физике и астрономии, пер. с англ., М., 1947; Прохоров Ю. В., Розанов Ю. А., Теория вероятностей, М., 1967.

Ю. В. Прохоров, Б. А. Севастьянов.

ВЕРОЯТНОСТЕЙ ТЕОРИЯ         
занимается изучением событий, наступление которых достоверно неизвестно. Она позволяет судить о разумности ожидания наступления одних событий по сравнению с другими, хотя приписывание численных значений вероятностям событий часто бывает излишним или невозможным. Согласно П.Лапласу, внесшему, пожалуй, наибольший вклад в развитие теории вероятностей, она "по существу представляет собой не что иное, как здравый смысл, сведенный к вычислениям". Слово "вероятно", его синонимы и производные от него могут употребляться в различных значениях. Примерами некоторых из них являются следующие утверждения: "Возможно, завтра будет дождь", "Вероятно, теория естественного отбора Дарвина верна" и "Если я брошу монету 100 раз, то, вероятно, что она выпадет вверх "орлом" от 40 до 60 раз". Математическая теория вероятностей имеет дело с утверждениями, аналогичными последнему.
См. также:
Теория вероятностей         
Тео́рия вероя́тностей — раздел математики, изучающий случайные события, случайные величины, их свойства и операции над ними.
Теория катастроф         
  • thumb
  • Поверхность катастрофы «Ласточкин хвост»
Катастроф теория; Теория особенностей
Теория катастроф — раздел математики, включающий в себя теорию бифуркаций дифференциальных уравнений (динамических систем) и теорию особенностей гладких отображений. Теория катастроф — раздел современной математики, который является дальнейшим развитием теории устойчивости и бифуркаций.
КАТАСТРОФ ТЕОРИЯ         
  • thumb
  • Поверхность катастрофы «Ласточкин хвост»
Катастроф теория; Теория особенностей
(катастрофизм) (от греч. katastrophe - поворот, переворот), геологическая концепция, согласно которой в истории Земли периодически повторяются события, внезапно изменяющие первично горизонтальное залегание горных пород, рельеф земной поверхности и уничтожающие все живое. Выдвинута в 1812 французским ученым Ж. Кювье для объяснения смены фаун и флор, наблюдаемых в геологических пластах. К кон. 19 в. катастроф теория потеряла свое значение.
Катастроф теория         
  • thumb
  • Поверхность катастрофы «Ласточкин хвост»
Катастроф теория; Теория особенностей

катастрофизм учение 1-й половины 19 в., рассматривавшее геологическую историю Земли как чередование длительных эпох относительного покоя и сравнительно коротких катастрофических событий, резко преображавших лик планеты. Идея о катастрофах зародившаяся в глубокой древности, в 17-18 вв. стала использоваться для истолкования геологической истории. Но т.к. длительность существования Земли до начала 19 в. оценивалась не более чем в 100 тыс. лет, было трудно объяснить действием обычных причин зафиксированные в толщах пород огромные изменения, претерпевавшиеся Землёй и её органическим миром в прошлом. Стремясь найти выход из этого затруднения, французский естествоиспытатель Ж. Кювье в 1812 выдвинул гипотезу о катастрофах (переворотах), во время которых на большей части планеты якобы погибало всё живое, а затем опустошённые места заселялись другими видами организмов, пережившими катастрофу в отдалённых районах. Это была попытка не только объяснить грандиозность прошлых преобразований Земли, но и преодолеть противоречие между господствовавшими убеждениями в неизменности видов и уже тогда прочно установленным фактом многократной смены в геологическом разрезе отличных друг от друга ископаемых флор и фаун. Идеи Кювье развивали французский палеонтолог А. д'Орбиньи, швейцарский геолог Л. Агассис, английский геолог А. Седжвик и др., насчитывавшие в геологической истории Земли 27 катастроф, во время которых якобы погибал весь органический мир. После каждой катастрофы, по представлениям этих учёных, в результате очередного божественного "акта творения" создавались совершенно новые растения и животные, не связанные с ранее существовавшими; каждый раз они были более сложно и совершенно организованы, чем предшествующие. В периоды между катастрофами никакого развития и изменений вновь созданные живые существа якобы не претерпевали. Концепция катастрофизма и неоднократных творческих актов согласовывалась с библейской версией творения мира. Принимая эту концепцию, можно было объяснить современное состояние поверхности Земли как результат последнего во времени творческого акта.

Тем не менее катастрофизм первой половины 19 в. сыграл положительную роль в развитии биостратиграфии (См. Биостратиграфия), поскольку учением о резких границах между различными по возрасту толщами и качественным своеобразием органического мира каждого периода (эпохи, века) он способствовал укреплению понятия о руководящих окаменелостях. Положительным было и то, что благодаря К. т. широко распространились идеи о прогрессе в органическом мире и об эпизодических событиях, нарушающих однообразие в истории Земли. Это способствовало формированию в дальнейшем представлений о сочетании эволюционного и скачкообразного развития. В середине 19 в. К. т. стала утрачивать своё значение в геологии благодаря победе представлений о том, что ныне действующих геологических факторов достаточно для осуществления за длительный срок всех перемен, зафиксированных в разрезе (Ч. Лайель). Позднее катастрофизм был побежден и в биологии в результате развития эволюционных представлений (Ч. Дарвином и др.). Однако отказ от идей катастрофизма не был окончательным: в 1-й половине 20 в. они частично возродились в форме так называемого неокатастрофизма - представления об одновременных на всей планете фазах складчатости и горообразования, прерывающих длительные эпохи относительного покоя и медленной эволюции коры (нем. геолог Х. Штилле и его последователи); высказываются мысли о катастрофических событиях во Вселенной, вызывающих усиленную радиацию, обусловливающую гибель одних групп организмов и быстрые мутационные изменения других, приводящие к возникновению новых видов и родов живых организмов (нем. палеонтолог О. Шиндевольф). Убедительная критика идей неокатастрофизма в тектонике дана Н. С. Шатским, а в палеонтологии - Л. Ш. Давиташвили.

В. В. Тихомиров.

Теория информации         
  • Схема системы связи
РАЗДЕЛ ПРИКЛАДНОЙ МАТЕМАТИКИ, РАДИОТЕХНИКИ И ИНФОРМАТИКИ, ОТНОСЯЩИЙСЯ К ИЗУЧЕНИЮ СВОЙСТВ ИНФОРМАЦИИ
Информации теория; Математическая теория связи; Теория передачи информации
Теория информации — раздел прикладной математики, радиотехники (теория обработки сигналов) и информатики, относящийся к измерению количества информации, её свойств и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, теория оперирует математическими моделями, а не реальными физическими объектами (источниками и каналами связи).
ХАОСА ТЕОРИЯ         
  • Landau–Hopf theory of turbulence}}. Позже Дэвид Руелл и Флорис Тейкнс предсказали, вопреки Ландау, что турбулентность в жидкости могла развиться через странный аттрактор, то есть основную концепцию теории хаоса
  • Пример чувствительности системы к первоначальным условиям, где ''x'' → 4''x''(1 — ''x'') и y → ''x'' + ''y'', если ''x'' + ''y'' < 1 (иначе ''x'' + ''y'' — 1). Здесь чётко видно, что ряды значений ''x'' и ''y'' через какое-то время заметно отклоняются друг от друга, хотя в первоначальных состояниях отличия микроскопические
  • Пример топологического смешивания, где ''x'' → 4''x''(1 — ''x'') и y → ''x'' + ''y'', если ''x'' + ''y'' < 1 (иначе ''x'' + ''y'' — 1). Здесь синий регион в процессе развития был преобразован сначала в фиолетовый, потом в розовый и красный регионы и в конечном итоге выглядит как облако точек, разбросанных поперёк пространства
  • Фрактальный папоротник, созданный благодаря игре хаоса. Природные формы (папоротники, облака, горы и т. д.) могут быть воссозданы через систему повторяющихся функций
  • аттрактора Лоренца]] для значений ''r'' = 28, σ = 10, ''b'' = 8/3
  • Аттрактор Лоренца как диаграмма хаотической системы. Эти два графика демонстрируют чувствительную зависимость от первоначальных условий в пределах занятого аттрактором региона
МАТЕМАТИЧЕСКИЙ АППАРАТ, ОПИСЫВАЮЩИЙ ПОВЕДЕНИЕ НЕКОТОРЫХ НЕЛИНЕЙНЫХ ДИНАМИЧЕСКИХ СИСТЕМ, ПОДВЕРЖЕННЫХ ПРИ ОПРЕДЕЛЁННЫХ УСЛОВИЯХ ЯВЛЕНИЮ
Хаоса теория; Теория динамического хаоса
раздел математики, изучающий кажущееся случайным или очень сложное поведение детерминированных динамических систем. Динамическая система - это такая система, состояние которой меняется во времени в соответствии с фиксированными математическими правилами; последние обычно задаются уравнениями, связывающими будущее состояние системы с текущим. Такая система детерминирована, если эти правила не включают явным образом элемента случайности.
Вплоть до 1960-х годов многим казалось естественным полагать, что динамическая система, описываемая простыми детерминистическими уравнениями, должна вести себя относительно просто, хотя уже более столетия было известно, что это верно лишь в некоторых весьма специальных случаях, таких, как Солнечная система. Однако к 1980 математики и естествоиспытатели обнаружили, что хаос вездесущ.
Пример хаотического поведения из повседневной жизни - движение жидкости в миксере. Это устройство подчиняется простым механическим законам: его нож-смеситель вращается с постоянной скоростью, и взаимодействие жидкости с ножом внутри миксера можно описать простыми детерминистическими уравнениями. Однако возникающее при этом движение жидкости весьма сложно. Ее соседние области рассекаются ножом и разделяются, а отдаленные области могут сближаться. Короче говоря, жидкость перемешивается - для этого миксеры и предназначены.
Выражение "теория хаоса" используется преимущественно в популярной литературе. Специалисты же рассматривают эту дисциплину как раздел теории динамических систем.
Основные принципы. Для изучения хаоса используют общие математические принципы и компьютерное моделирование. Фундаментальной характеристикой всякой динамической системы является итерация, т.е. результат повторного (многократного) применения одного и того же математического правила к некоторому выбранному состоянию. Состояние обычно описывается числом или набором чисел, но это может быть также геометрическая фигура или конфигурация. Например, пусть правилом будет "разделить на два". Начав с исходного состояния, задаваемого числом 1, это правило дает итерации 1/2, 1/4, 1/8,..., образующие очевидную закономерную последовательность. Правило "возвести в квадрат и вычесть единицу", примененное к 0, дает последовательность -1, 0, -1, 0,..., которая циклически и неограниченно скачет между числами 0 и ?1. Однако правило "возвести в квадрат, удвоить и затем вычесть единицу", если начать применять его, скажем, к значению 0,1, порождает последовательность чисел ?0,98, 0,92, 0,69, ?0,03,..., в которой не удается заметить никакой очевидной закономерности.
Основным понятием теории хаоса является аттрактор, т.е. то поведение, к которому в конце концов приходит или в пределе стремится система. Аттракторами для трех описанных выше систем являются: единственное число 0; пара чисел (0, ?1); весь интервал чисел между -1 и 1. Динамика в этих трех случаях соответственно стационарная, периодическая и хаотическая. Хаотический аттрактор обладает скрытой структурой, которая часто становится явной после графического представления итераций. Состояние динамической системы - это набор чисел, которые можно интерпретировать как координаты изображающей его точки в некотором фазовом пространстве. Когда состояние системы меняется, эта точка движется. Для стационарного аттрактора движущаяся точка стремится к фиксированному положению, а для периодического аттрактора она циклически проходит через фиксированную последовательность положений. В случае хаотического аттрактора движущаяся точка образует более сложную конфигурацию с очень хитроумной, многослойной структурой. Такие конфигурации называют фракталами; этот термин был введен в 1970 Б.Мандельбротом. Его работы впоследствии стимулировали огромное количество исследований по фрактальной геометрии.
Важной чертой хаотической динамики является ее непредсказуемость. Представим себе две частички порошка, находящиеся рядом друг с другом в жидкости внутри миксера. После включения миксера эти две частички недолго останутся рядом; они быстро разойдутся в разные стороны и вскоре начнут двигаться независимо. Подобным же образом, если дважды запустить хаотическую систему из очень близких начальных состояний, ее поведение в этих двух случаях быстро станет совершенно непохожим. Это означает, что на больших временных интервалах хаотические системы непредсказуемы. Малейшая погрешность измерения начального состояния быстро растет, и предсказание будущего состояния становится все более неточным. Однако, в отличие от случайной системы, краткосрочное прогнозирование здесь возможно.
История вопроса. Понятие хаоса не было в явном виде сформулировано до 1960-х годов, но его истоки можно проследить начиная с последнего десятилетия 19 в., когда появилась удостоенная премии работа французского математика А.Пуанкаре о движении в Солнечной системе. Двумя столетиями раньше Ньютон установил закон всемирного тяготения, из которого вывел, что движение двух притягивающихся тел в отсутствие других сил описывается просто: каждое из них перемещается относительно их общего центра масс по одному из конических сечений - окружности, эллипсу, параболе, гиперболе или прямой. Для трех или большего числа тел, однако, нельзя найти подобного простого решения, и Пуанкаре показал, что эта трудность вызвана не недостатком человеческой изобретательности, а свойствами, внутренне присущими динамике многих тел. Он установил, что даже в ограниченной задаче трех тел, масса одного из которых пренебрежимо мала, возможно столь сложное движение, что его нельзя описать никакой математической формулой. См. также НЕБЕСНАЯ МЕХАНИКА
.
В 1926-1927 голландский инженер Б.Ван-дер-Пол сконструировал электронную схему, соответствующую математической модели сердечных сокращений. Он обнаружил, что при определенных условиях возникающие в схеме колебания были не периодическими, как при нормальном сердцебиении, а нерегулярными. Его работа получила серьезное математическое обоснование в годы Второй мировой войны, когда Дж.Литтлвуд и М.Картрайт исследовали принципы радиолокации. В начале 1960-х годов американский математик С.Смейл попытался построить исчерпывающую классификацию типичных разновидностей поведения динамических систем. Поначалу он предполагал, что можно обойтись различными комбинациями периодических движений, но вскоре понял, что возможно значительно более сложное поведение. В частности, он подробнее исследовал открытое Пуанкаре сложное движение в ограниченной задаче трех тел, упростив геометрию и получив при этом систему, известную ныне как "подкова Смейла". Он доказал, что такая система, несмотря на ее детерминированность, проявляет некоторые черты случайного поведения. Другие примеры подобных явлений были разработаны американской и российской школами в теории динамических систем, причем особенно важным оказался вклад В.И.Арнольда. Так начала возникать общая теория хаоса. Сам термин "хаос" ввели Дж.Йорке и Т.Ли в 1975 в краткой статье, посвященной обсуждению некоторых результатов исследований российской школы.
Исследования хаотических систем время от времени появлялись и в литературе по прикладным вопросам. Наиболее известная из таких моделей была введена метеорологом Э.Лоренцем в 1963. Лоренц построил модель конвекции в атмосфере, создав приближения очень сложных уравнений, описывающих это явление, значительно более простыми уравнениями с тремя неизвестными. Численно решая их на компьютере, он обнаружил, что решения колеблются нерегулярным, почти случайным образом. Лоренц также установил, что если слегка изменять начальные значения переменных, то отклонения будут усиливаться, пока новое решение не окажется совершенно непохожим на исходное. Описание им этого явления в последующих лекциях привело к популярному ныне выражению "эффект бабочки": взмах крыла бабочки может изменить погоду.
Примеры приложений. Теория хаоса находит приложения в широком спектре наук. Одним из самых ранних стало ее применение к анализу турбулентности в жидкости. Движение жидкости бывает либо ламинарным (гладким и регулярным), либо турбулентным (сложным и нерегулярным). До появления теории хаоса существовали две конкурирующие теории турбулентности. Первая из них представляла турбулентность как накопление все новых и новых периодических движений; вторая объясняла неприменимость стандартной физической модели невозможностью описания жидкости как сплошной среды в молекулярных масштабах. В 1970 математики Д.Рюэль и Ф.Такенс предложили третью версию: турбулентность - это хаос в жидкости. Их предположение поначалу считалось весьма спорным, но с тех пор оно было подтверждено для нескольких случаев, в частности, для ранних стадий развития турбулентности в течении между двумя вращающимися цилиндрами. Развитая турбулентность по-прежнему остается загадочным явлением, но хаоса вряд ли удается избежать в любом возможном ее объяснении. См. также ГИДРОАЭРОМЕХАНИКА
.
Ранняя работа Э.Лоренца в области метеорологии получила дальнейшее развитие, и теперь известно, что полные уравнения поведения атмосферы, используемые при прогнозировании погоды, могут вести себя хаотически. Это означает, что долгосрочные прогнозы погоды на основе данных о ее прошлом состоянии подвержены "эффекту бабочки", так что погода обычно не может быть предсказана более чем на четыре или пять дней вперед - независимо от мощности используемых компьютеров.
Движение в Солнечной системе тоже, как известно, хаотично, но здесь требуются десятки миллионов лет, прежде чем какое-то изменение станет непредсказуемым. Хаос проявляет себя многообразными способами. Например, спутник Сатурна Гиперион обращается по регулярной, предсказуемой орбите вокруг своей планеты, но при этом он хаотически кувыркается, изменяя направление оси собственного вращения. Теория хаоса объясняет это кувыркание как побочное действие приливных сил, создаваемых Сатурном. Теория хаоса объясняет также распределение тел в поясе астероидов между Марсом и Юпитером. Оно неравномерно: на одних расстояниях от Солнца существуют сгущения, на других - пустые промежутки. И сгущения, и пустые промежутки их гелиоцентрических орбит находятся на расстояниях, образующих "резонансы" с Юпитером, т.е. период обращения каждого астероида составляет некую простую дробь с периодом обращения Юпитера. Например, в резонансе 2:3 период обращения астероида равен 2/3 периода обращения Юпитера. Теория хаоса показывает, что одни резонансы порождают устойчивое поведение (сгущения), тогда как другие - неустойчивое (пустые промежутки). В частности, астероиды в резонансе 1:3 с Юпитером имеют неустойчивые орбиты и могут испытать возмущения, заставляющие их пересечь орбиту Марса, после чего они могут испытать дальнейшие возмущения и пересечь орбиту Земли. В 1995 Ж.Ласкар установил, что на временных масштабах десятков миллионов лет вся Солнечная система хаотична. Однако хаос не делает все черты движения в Солнечной системе непредсказуемыми. Например, форма планетной орбиты может быть предсказуемой, однако точное положение планеты на орбите остается непредсказуемым. Ласкар предсказал вероятное будущее Солнечной системы в целом на следующие несколько миллиардов лет. Согласно его вычислениям, ничего существенного не случится с орбитами внешних планет - Юпитера, Сатурна, Урана, Нептуна и Плутона. Орбиты Земли и Венеры тоже не претерпели бы существенных изменений, если бы не Марс, орбита которого изменится настолько, что он едва не столкнется с Землей. Меркурий тоже приблизится к Венере и будет либо выброшен из Солнечной системы, либо поменяется местами с Венерой.
Хаос имеет место также в биологии и экологии. В конце 19 в. было установлено, что популяции животных редко бывают стабильными; им свойственны нерегулярно чередующиеся периоды быстрого роста и почти полного вымирания. Теория хаоса показывает, что простые законы изменения численности популяций могут объяснить эти флуктуации без введения случайных внешних воздействий. Теория хаоса также объясняет динамику эпидемий, т.е. флуктуирующих популяций микроорганизмов в организмах людей.
Может создаться впечатление, что теория хаоса не должна иметь каких-либо полезных применений, поскольку хаотические системы непредсказуемы. Однако это неверно, во-первых, потому, что лишь некоторые аспекты хаотических систем непредсказуемы, и, во-вторых, потому, что полезность теории не ограничивается способностью прямого прогнозирования. В частности, теория хаоса предлагает новые методы анализа данных и обнаружения скрытых закономерностей там, где прежде систему считали случайной и никаких закономерностей в ее поведении не искали, полагая, что их просто не существует. Одним из приложений этого подхода служит машина FRACMAT, обеспечивающая дешевую и быструю процедуру контроля качества пружинной проволоки.
К числу наиболее перспективных применений теории хаоса принадлежит "хаотическое управление". В 1950 Дж.фон Нейман предположил, что неустойчивость погоды может в один прекрасный день обернуться благом, поскольку неустойчивость означает, что желаемый эффект может быть достигнут очень малым возмущением. В 1990 С.Гребоджи, Э.Отт и Дж.Йорке опубликовали теоретическую схему использования этого вида неустойчивости для управления хаотическими системами. Их схема представляет собой общую форму того метода, с помощью которого в 1985 инженеры НАСА послали космический зонд на встречу с кометой Джакобини - Циннера. Зонд пять раз облетел Луну, используя хаотичность взаимодействия трех тел, позволяющую совершать большие изменения траектории с малыми затратами топлива. Тот же метод был применен для синхронизации батареи лазеров; для управления нерегулярностями сердцебиения, что открывает возможность создать "интеллектуальный" стимулятор сердечного ритма; для управления биотоками мозга, что, в частности, может помочь контролировать эпилептические припадки; наконец, для ламинаризации турбулентного течения жидкости - метод, который способен уменьшить расход топлива самолетами.
ИНФОРМАЦИИ ТЕОРИЯ         
  • Схема системы связи
РАЗДЕЛ ПРИКЛАДНОЙ МАТЕМАТИКИ, РАДИОТЕХНИКИ И ИНФОРМАТИКИ, ОТНОСЯЩИЙСЯ К ИЗУЧЕНИЮ СВОЙСТВ ИНФОРМАЦИИ
Информации теория; Математическая теория связи; Теория передачи информации
(иногда - сообщений теория) , раздел кибернетики, в котором математическими методами изучаются способы измерения количества информации, содержащейся в каких-либо сообщениях, и ее передачи.

Википедия

Теория вероятностей

Тео́рия вероя́тностей — раздел математики, изучающий случайные события, случайные величины, их свойства и операции над ними.

Что такое ВЕРОЯТНОСТЕЙ ТЕОРИЯ - определение